首页> 外文OA文献 >Training Artificial Neural Networks: Backpropagation via Nonlinear Optimization
【2h】

Training Artificial Neural Networks: Backpropagation via Nonlinear Optimization

机译:训练人工神经网络:通过非线性优化进行反向传播

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

In this paper we explore different strategies to guide backpropagation algorithm used for training artificial neural networks. Two different variants of steepest descent-based backpropagation algorithm, and four different variants of conjugate gradient algorithm are tested. The variants differ whether or not the time component is used, and whether or not additional gradient information is utilized during one-dimensional optimization. Testing is performed on randomly generated data as well as on some benchmark data regarding energy prediction. Based on our test results, it appears that the most promissing backpropagation strategy is to initially use steepest descent algorithm, and then continue with conjugate gradient algorithm. The backpropagation through time strategy combined with conjugate gradients appears to be promissing as well.
机译:在本文中,我们探索了不同的策略来指导用于训练人工神经网络的反向传播算法。测试了基于最速下降的反向传播算法的两个不同变体以及共轭梯度算法的四个不同变体。在一维优化期间,是否使用时间分量以及是否使用附加梯度信息,这些变体不同。对随机生成的数据以及有关能量预测的一些基准数据执行测试。根据我们的测试结果,似乎最有前途的反向传播策略是首先使用最速下降算法,然后继续使用共轭梯度算法。通过时间策略与共轭梯度相结合的反向传播似乎也是不允许的。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号